在本文中,我们将探讨先正达如何与 AWS 合作开发 Cropwise AI,这是一款由 Amazon Bedrock Agents 提供支持的生成式 AI 助手,可帮助销售代表向北美各地的农民提供更好的种子产品推荐。该解决方案通过将复杂数据简化为自然对话、快速访问详细的种子产品信息以及通过移动应用程序界面大规模实现个性化推荐,将种子选择过程转变为现实。
Speed up your AI inference workloads with new NVIDIA-powered capabilities in Amazon SageMaker
在 re:Invent 2024 上,我们很高兴地宣布了新功能,利用 Amazon SageMaker 上的 NVIDIA 加速计算和软件产品来加速您的 AI 推理工作负载。在这篇文章中,我们将探讨如何使用这些新功能来增强您在 Amazon SageMaker 上的 AI 推理。我们将介绍从 AWS Marketplace 为 SageMaker Inference 部署 NVIDIA NIM 微服务的过程。然后,我们将深入介绍 NVIDIA 在 SageMaker JumpStart 上提供的模型,展示如何直接在 JumpStart 界面中访问和部署 Nemotron-4 模型。这将包括分步
Unlock cost savings with the new scale down to zero feature in SageMaker Inference
今天在 AWS re:Invent 2024 上,我们很高兴地宣布 Amazon SageMaker 推理终端节点的一项新功能:能够将 SageMaker 推理终端节点扩展到零个实例。这项期待已久的功能对于使用云中的 AI 和机器学习 (ML) 推理功能的客户来说是一个改变游戏规则的功能。
今天,在 AWS re:Invent 2024 大会上,我们很高兴地宣布 Amazon SageMaker 中推出了新的容器缓存功能,该功能可显著缩短扩展生成式 AI 模型进行推理所需的时间。这项创新让您能够更快地扩展模型,在扩展新模型副本时,延迟可降低高达 56%,在新实例上添加模型副本时,延迟可降低高达 30%。在本文中,我们将探讨 SageMaker 推理的新容器缓存功能,以应对部署和扩展大型语言模型 (LLM) 的挑战。
今天在 AWS re:Invent 2024 上,我们很高兴地宣布 Amazon SageMaker Inference 中的一项新功能,它显著减少了使用 LMI 部署和扩展 LLM 进行推理所需的时间:Fast Model Loader。在这篇文章中,我们深入探讨了 Fast Model Loader 的技术细节,探索了它与现有 SageMaker 工作流程的集成,讨论了如何开始使用这项强大的新功能,并分享了客户成功案例。
在本文中,我们提供了在 LLM 部署中实施 Fast Model Loader 的详细实践指南。我们探讨了两种方法:使用 SageMaker Python SDK 进行编程实现,以及使用 Amazon SageMaker Studio UI 获得更直观、更具交互性的体验。无论您是喜欢使用代码的开发人员还是喜欢图形界面的人,您都将学习如何利用这一强大功能来加速您的 LLM 部署。
Fast and accurate zero-shot forecasting with Chronos-Bolt and AutoGluon
Amazon SageMaker 客户可以通过 AutoGluon-TimeSeries 和 Amazon SageMaker JumpStart 使用 Chronos 模型。在这篇文章中,我们介绍了 Chronos-Bolt,这是我们最新的预测 FM,已集成到 AutoGluon-TimeSeries 中。
How Amazon Finance Automation built a generative AI Q&A chat assistant using Amazon Bedrock
Amazon Finance Automation 在 Amazon Bedrock 上开发了一个基于大型语言模型 (LLM) 的问答聊天助手。该解决方案使分析师能够快速检索客户查询的答案,并在同一通信线程内生成快速响应。因此,它大大减少了解决客户查询所需的时间。在这篇文章中,我们分享了 Amazon Finance Automation 如何使用 Amazon Bedrock 构建这个生成式 AI 问答聊天助手。
Cohere Rerank 3.5 is now available in Amazon Bedrock through Rerank API
我们很高兴地宣布,通过 Amazon Bedrock 中的新 Rerank API,Cohere 的高级重新排名模型 Rerank 3.5 现已推出。这种强大的重新排名模型使 AWS 客户能够显著提高他们的搜索相关性和内容排名能力。在这篇文章中,我们讨论了重新排名的必要性、Cohere 的 Rerank 3.5 的功能以及如何开始在 Amazon Bedrock 上使用它。
AWS DeepRacer: How to master physical racing?
在这篇博文中,我将介绍物理 AWS DeepRacer 赛车(真实赛道上的真实汽车)与虚拟世界中的赛车(模拟 3D 环境中的模型)的不同之处。我将介绍基础知识、虚拟与物理之间的差异,以及我为深入了解挑战所采取的步骤。
Easily deploy and manage hundreds of LoRA adapters with SageMaker efficient multi-adapter inference
Amazon SageMaker 的全新高效多适配器推理功能为使用微调模型的客户带来了激动人心的可能性。此功能与 SageMaker 推理组件集成,可让您通过 SageMaker API 部署和管理数百个经过微调的低秩自适应 (LoRA) 适配器。在本文中,我们将展示如何使用 SageMaker 中的全新高效多适配器推理功能。
Create a generative AI assistant with Slack and Amazon Bedrock
客户体验、协作工具和相关数据的无缝集成是实现基于知识的生产力提升的基础。在这篇文章中,我们将向您展示如何将流行的 Slack 消息服务与 AWS 生成式 AI 服务集成,以构建一个自然语言助手,业务用户可以在其中询问非结构化数据集的问题。
Unleash your Salesforce data using the Amazon Q Salesforce Online connector
在这篇文章中,我们将引导您完成配置和设置 Amazon Q Salesforce Online 连接器的过程。全球数千家公司使用 Salesforce 来管理其销售、营销、客户服务和其他业务运营。Salesforce 基于云的平台将整个组织的客户信息和互动集中起来,为销售代表、营销人员和支持代理提供每个客户的统一 360 度视图。由于 Salesforce 是其业务的核心,公司随着时间的推移在平台内积累了大量的客户数据。这些数据对于深入了解客户、改进运营和指导战略决策非常有价值。但是,访问和分析结构化数据和非结构化数据的混合可能具有挑战性。借助 Amazon Q Salesforce Onli
这篇文章演示了如何使用 Amazon Bedrock Agents、Amazon Knowledge Bases 和 RAGAS 评估指标来构建自定义幻觉检测器并使用人机交互对其进行修复。代理工作流可以通过不同的幻觉补救技术扩展到自定义用例,并提供使用自定义操作检测和缓解幻觉的灵活性。
Deploy Meta Llama 3.1-8B on AWS Inferentia using Amazon EKS and vLLM
在本文中,我们将介绍使用 Amazon EKS 在 Inferentia 2 实例上部署 Meta Llama 3.1-8B 模型的步骤。此解决方案将 Inferentia 2 芯片的卓越性能和成本效益与 Amazon EKS 的强大和灵活的环境相结合。Inferentia 2 芯片提供高吞吐量和低延迟推理,非常适合 LLM。
Serving LLMs using vLLM and Amazon EC2 instances with AWS AI chips
在过去一年中,大型语言模型 (LLM) 和生成式 AI 的使用呈爆炸式增长。随着强大的公开基础模型的发布,用于训练、微调和托管您自己的 LLM 的工具也变得民主化。在 AWS Trainium 和 Inferentia 上使用 vLLM 可以托管 LLM 以实现高性能 [...]
Enhanced observability for AWS Trainium and AWS Inferentia with Datadog
本博文将引导您了解 Datadog 与 AWS Neuron 的新集成,它通过提供对资源利用率、模型执行性能、延迟和实时基础设施运行状况的深度可观察性来帮助您监控 AWS Trainium 和 AWS Inferentia 实例,使您能够优化机器学习 (ML) 工作负载并实现大规模高性能。
Apply Amazon SageMaker Studio lifecycle configurations using AWS CDK
本篇文章是有关如何为您的 Amazon SageMaker Studio 域设置生命周期配置的分步指南。借助生命周期配置,系统管理员可以对其 SageMaker Studio 域及其用户应用自动控制。我们涵盖了 SageMaker Studio 的核心概念,并提供了如何将生命周期配置应用于 […] 的代码示例